
Beim focused crawling sammeln die Suchmaschinen ihre Daten auf der Basis von white lists oder seed lists ein. Dies sind Listen von Webservern, die für den Aufbau eines spezifischen Datenbestandes berücksichtigt werden sollen. Durch diese Vorauswahl wird bereits eine Qualitätskontrolle durchgeführt und oft wird auch ein thematischer Fokus festge...
Gefunden auf
https://sprint.informationswissenschaft.ch/glossar-literatur/glossar/

Durch die Masse der Webseiten kommen die Suchdienste mit den Indexierung nicht mehr nach. Darum messen die Suchmaschinen, wie oft eine Website aktualisiert wird und danach richtet sich dann auch die Häufigkeit einer erneuten Indexierung.
Gefunden auf
https://www.enzyklo.de/Lokal/40004

Google benötigt für die Erstellung eines neuen Index etwa einen Monat. Dieser Vorgang wird durch Focused Crawling verkürzt. Wenn Google feststellt, dass Webseiten nicht oder nur sehr selten verändert werden, reduziert sich die Besuchshäufigkeit des Google
Gefunden auf
https://www.enzyklo.de/Lokal/42423
Keine exakte Übereinkunft gefunden.